Der US-Chip-Gigant Nvidia investiert rund 20 Milliarden US-Dollar in eine Vereinbarung mit dem KI-Chip-Start-up Groq. Der Deal ist der bislang größte in Nvidias Firmengeschichte, er zeigt, wovor Nvidia-CEO Jensen Huang (verlinkt auf https://www.businessinsider.de/karriere/jensen-huang-wie-seine-mutter-bis-heute-nvidia-und-ihn-praegt/) Angst haben könnte: Die nächste Generation der Chips für das Ausführen künstlicher Intelligenz könnte ohne Nvidias Beteiligung entstehen. Huang scheint Groq als so strategisch wichtig und potenziell bedrohlich einzustufen, dass er keine Kosten scheut. Dabei vermeidet er eine klassische Übernahme: Für die zwanzig Milliarden Dollar bekommt er lediglich Lizenzrechte und wirbt das Schlüsselpersonal ab, das Start-up bleibt als leere Hülle zurück. Was macht Groq so besonders, und wie passt der Mega-Deal in die aktuelle Speicherkrise? Ein Überblick : Der Deal wird vom Wandel im Markt für KI-Hardware bestimmt. Bisher verdient Nvidia sein Geld vor allem mit Supercomputern auf Basis von Grafikprozessoren (GPUs) zum Training von KI-Modellen. Doch nun verlagert sich der Fokus auf die Inferenz, also das Ausführen bereits trainierter KI-Modelle im Alltag. Huang selbst als auch Analysten erwarten, dass künftig die meisten KI-Chips für diesen Inferenz-Betrieb verwendet werden. Genau hier kommt Groq ins Spiel: Die Chips des Start-ups rechnen Inferenz-Aufgaben bis zu zehnmal schneller als herkömmliche Nvidia-GPUs . Mit der Lizenzierung dieser Technologie will Huang sicherstellen, dass Nvidia seine führende Rolle auch in dieser neuen Phase des KI-Booms behält. Diverse Großkunden entwickeln zudem gerade ähnliche Chips, um sich unabhängiger von Nvidia zu machen. Die Gründer von Groq etwa haben zuvor für Google an deren eigenen TPU-KI-Chips geforscht. Der Wettlauf um immer leistungsfähigere KI hat zudem eine unerwartete Knappheit bei Speicherchips (verlinkt auf https://www.welt.de/wirtschaft/plus6930331a1625eabef80e3c57/preissteigerungen-die-neue-chip-krise-dieses-mal-trifft-es-die-verbraucher-direkt.html) ausgelöst. Weltweit herrscht ein akuter Mangel sogenanntem High Bandwidth Memory (HBM) für die KI-Supercomputer. AI-Firmen wie OpenAI kaufen vorsorglich enorme Mengen an Speicher und treiben die Preise in die Höhe. Für KI-Rechenzentren werden Speicherchips zum Flaschenhals, und Nvidia spürt das: KI-Projekte könnten 2026 verzögert werden, denn Nvidias Computer sind auf die knappen Spezialbausteine (verlinkt auf https://www.businessinsider.de/wirtschaft/warum-michael-burry-an-nvidia-chips-ki-und-chinas-tech-macht-glaubt/) angewiesen. Der radikal andere Ansatz hilft in der Speicherkrise Groq verfolgt einen radikal anderen Ansatz bei seinen KI-Chips , der genau dieses Speicherproblem adressiert. Anstatt externe Speicherbausteine zu nutzen, setzt Groq auf großen Speicher direkt auf dem Chip (SRAM). Die „Language Processing Units“ des Start-ups nutzen Hunderte Megabyte SRAM als Hauptspeicher für KI-Modellgewichte. Dadurch werden relativ zeitaufwendige Zugriffe auf externen RAM-Bausteinen überflüssig. Der KI-Modelldatensatz liegt direkt auf dem Chip, was die sogenannte Latenz, also die Leerlauf-Zeit, die ein Chip mit Warten auf den Speicher verbringt, drastisch senkt und den Recheneinheiten einen ungebremsten Datenstrom liefert. Wenn ein Nutzer eine Frage stellt, kann ein Groq-Chip viel schneller reagieren . Diese Architektur ist besonders bei Echtzeitanwendungen vorteilhaft, etwa bei Sprachassistenten oder autonomen Systemen, die rasche Antworten bzw. Entscheidungen brauchen. Ein weiterer Vorteil des Groq-Designs ist Konstanz und Vorhersagbarkeit : Herkömmliche GPUs glänzen vor allem, wenn sie viele Berechnungen parallel in großen Stapeln abarbeiten; doch bei einzelnen KI-Anfragen fällt ihre Performance ab. Groqs LPU dagegen schleusen jede Anfrage ohne Wartezeit durch. Die Kehrseite: Da man auf dem Chip selbst nur wenig Speicher unterbringen kann, benötigt man für den Betrieb eines Modells viele vernetzte Groq-Chips. Groq ist nicht allein mit der Erkenntnis, dass mehr lokaler Cache-Speicher Wunder wirkt. Nvidia-Konkurrent AMD etwa stapelt bei seinen neuesten Prozessoren zusätzliches SRAM als „3D V-Cache“ obenauf, um die Daten näher an den Rechenkernen zu halten. Groq treibt dieses Konzept jedoch auf die Spitze, indem es den externen Speicher ganz eliminiert und so eine bisher unerreichte Antwortgeschwindigkeit bei KI-Anfragen erzielt. Bemerkenswert an der Nvidia-Groq-Transaktion ist, dass der Deal formal keine Übernahme ist. Statt alle Groq-Anteile zu kaufen, hat Nvidia einen „nicht-exklusiven Lizenzvertrag“ abgeschlossen und übernimmt gleichzeitig den Großteil des Personals. Groq-CEO Jonathan Ross, ehemals leitender Chiparchitekt bei Google und rund 90 Prozent der Belegschaft wechseln zu Nvidia. Durch diese Konstruktion umgeht Nvidia eine langwierige Kartellprüfung , denn offiziell wechselt kein Eigentum den Besitzer, obwohl Nvidia de facto die Kontrolle über Groqs Technologie gewinnt. Für Groqs Investoren und Mitarbeiter ist der Deal dennoch ein Geldsegen: Sie erhalten basierend auf einer Bewertung von 20 Milliarden Dollar Auszahlungen, gestückelt in Sofortzahlungen und Boni. Huang zeigt mit diesem 20-Milliarden-Dollar-Schachzug, dass er bereit ist, für seine dominierende Position tief in die Tasche zu greifen. Groqs Spezial-Chips könnten ein zentrales Problem der Branche lösen und Nvidia helfen, in Bereichen wie Echtzeit-KI, neue Maßstäbe zu setzen. Doch sicher ist die künftige Dominanz der Groq-Technik nicht, Huang kauft sich nur einen Zeitvorteil bei der Entwicklung. Dieser Artikel wurde für das Wirtschaftskompetenzzentrum von WELT und „ Business Insider Deutschland (verlinkt auf https://www.businessinsider.de/) “ erstellt. Benedikt Fuest (verlinkt auf https://www.welt.de/autor/benedikt-fuest/) ist Wirtschaftsredakteur und schreibt über Technologie und Rüstung.